由於在 FL 中,資料永遠不會離開其所有者的場所,可以假設 FL 完全可以防止濫用,FL 比傳統的 ML 方法更安全,它仍然存在一些常見的攻擊方式。
旨在識別底層訓練資料或觸發最終訓練模型的錯誤分類的隱私攻擊。
中間人(Man-in-the-middle, MITM)攻擊能夠干擾和欺騙雙方甚至一個或多個參與者是惡意的場景在後者的情況下,惡意資料提供商可以汙染機器學習(ML)模型。
使其在最終測試階段做出錯誤分類或預測,機器學習(ML)模型(Model)的所有者將難以區分汙染模型(Poisson Model)和良性模型。